フランスのMistral AIがMistral3シリーズを発表。3B、8B、14Bの小型高密度モデルと最強のMistral Large3を提供し、エッジデバイスから企業向け推論まで幅広く対応。Apache2.0でオープンソース化され、Hugging FaceとGitHubで公開。低遅延を維持しつつコンテキスト長を128Kに拡張、Llama3.1同等モデルと同等の性能を実現。....
最新研究では12種類の主要な大規模モデルを高ストレステストにかけ、納期が短縮されたり罰則が重くなったりするようなストレス状況において、モデルのパフォーマンスが顕著に低下することが確認された。例えば、Gemini2.5Proでは失敗率が18.6%から79%に急上昇し、GPT-4oも約半分に下落した。生物学的セキュリティなどの重要なタスクでは、モデルが重要なステップを飛ばす重大なミスが発生したこともあった。
SemiAnalysisレポートによると、OpenAIは2024年5月のGPT-4o公開以降、大規模事前学習で収束困難や性能低下に直面し、次世代モデルの開発を中断。GPT-5はGPT-4oの最適化版で、アーキテクチャ革新は見られない。一方、GoogleのTPUv7はGemini3などで大規模学習を成功させ、計算クラスターの性能が優れている。....
DeepSeek-Math-V2は236Bパラメータの数学特化MoEモデル。活性化パラメータは21Bで128Kコンテキストをサポート。Apache2.0でオープンソース化され、MATHベンチマークで75.7%、AIME2024で30問中4問正解と高性能を発揮。独自の「自己検証」技術を採用。....
OpenAI GPT-4oが生成した多様なAIアート画像とプロンプトを厳選して展示しています。
開発者は、OpenAI API の新しい音声モデルである gpt-4o-transcribe、gpt-4o-mini-transcribe、gpt-4o-mini-tts をインタラクティブに体験できます。
百聆はGPT-4oに類似した音声対話型ロボットです。ASR+LLM+TTSにより実現されており、低スペック環境でも動作し、割り込みも可能です。
MiniCPM-o 2.6:GPT-4oレベルの性能を備え、スマートフォン上でビジュアル、音声、マルチモーダルライブストリーミングを実現するMLLMです。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
-
$8.75
$70
400
$1.75
$14
$0.35
Alibaba
$1.8
$5.4
16
Tencent
$0.8
$2
32
$17.5
128
$56
$0.7
$525
$1050
$1.05
$4.2
Chatglm
$100
$210
$420
unsloth
GLM-4-32B-0414は320億のパラメータを持つ大規模言語モデルで、性能はGPT-4oやDeepSeek-V3に匹敵し、中国語と英語をサポートし、卓越したコード生成、関数呼び出し、複雑なタスク処理能力を備えています。
GLM-4-32B-0414はGLMファミリーの新メンバーで、パラメータ規模は320億に達し、GPT-4oやDeepSeek-V3などと同等の性能を持ち、ローカル展開をサポートしています。
zai-org
GLM-4-32B-Base-0414はGLMファミリーの新メンバーで、320億のパラメータを持ち、15Tの高品質データで事前学習されています。その性能は、GPT-4oやDeepSeek-V3などの先進モデルと匹敵します。このモデルは、簡単なローカルデプロイをサポートし、コード生成、関数呼び出し、検索型QAなどの分野で優れた性能を発揮します。
GLM-4-32B-0414はGLMファミリーの新メンバーで、320億のパラメータを持つ高性能大規模言語モデルです。このモデルは15Tの高品質データで事前学習され、大量の推論型合成データを含んでおり、コード生成、関数呼び出し、検索質問応答などの複数のタスクシナリオで優れた性能を発揮し、GPT-4oやDeepSeek-V3などのより大規模なモデルと匹敵する性能を持っています。
Psychotherapy-LLM
このモデルはLlama-3.1-8B-Instructを基に選好学習で微調整された心理カウンセリング専用モデルで、心理カウンセリングセッションで優れたパフォーマンスを発揮し、GPT-4oを超える勝率を達成しています。
AtlaAI
Atla Selene Miniは現在最も先進的な小型審査言語モデル(SLMJ)で、サイズが10倍大きいモデルに匹敵する性能を持ち、複数のベンチマークテストでGPT-4oを上回っています。
openbmb
MiniCPM-o 2.6はスマートフォンで動作するGPT-4oレベルのマルチモーダル大規模モデルで、視覚、音声、ライブストリーム処理をサポート
VITA-MLLM
VITA-1.5はマルチモーダルインタラクションモデルで、GPT-4oレベルのリアルタイム視覚と音声インタラクション能力を実現することを目的としています。
CISCai
これはQwen2.5-Coder-32B-InstructモデルのGGUF量子化バージョンで、高度な重要度行列量子化方法を採用し、モデルの性能を維持しながら、記憶と計算リソースの要件を大幅に削減します。このモデルは現在最も先進的なオープンソースのコード大規模言語モデルで、コーディング能力はGPT-4oに匹敵します。
MCPプロトコルを通じてChatGPTとやり取りするサーバーで、高度なテキスト分析と推論に使用されます。